Kioxia avisa: la IA seguirá tensionando la memoria NAND durante al menos uno o dos años
por Manuel Naranjo CloudFest 2026La expansión de la inteligencia artificial está empujando cambios profundos en el hardware de los centros de datos, pero no todos se ven a simple vista. Buena parte del foco público suele quedarse en las GPUs, en la potencia de cálculo o en los grandes modelos, aunque por debajo de esa capa hay otra presión igual de decisiva: la del almacenamiento. Y ahí es donde Kioxia lanza una advertencia clara. La demanda ligada a la IA seguirá tensionando la memoria NAND durante al menos uno o dos años más.
Esa es una de las ideas centrales que dejó Axel Stoermann, Vicepresidente y CTO de Kioxia, en una entrevista realizada por Mikel Aguirre, Director de Pronetic, durante CloudFest 2026. La conversación dibuja un escenario en el que la IA no solo está aumentando la necesidad de capacidad, sino que está cambiando por completo la forma en la que se accede a los datos, obligando a replantear qué tipo de almacenamiento sirve realmente en este nuevo contexto.
La IA ya no encaja en el modelo clásico del almacenamiento empresarial
Uno de los puntos más relevantes de la entrevista es que la IA no puede analizarse con la misma lógica que otras cargas empresariales más tradicionales. Durante años, muchas infraestructuras se han diseñado para responder a patrones variables, con momentos de más demanda y otros de menor actividad. Ese comportamiento más irregular permitía convivir con tecnologías que, aunque eran más lentas, seguían siendo válidas por coste o por capacidad.
Según explica Stoermann, eso deja de servir cuando se habla de entrenamiento e inferencia de inteligencia artificial. En esos entornos no basta con almacenar enormes cantidades de información. Lo crítico es que los datos estén disponibles con una rapidez sostenida, sin interrupciones y sin caídas de rendimiento. La IA no funciona con picos aislados y descansos largos, sino con una lectura continua, a máxima exigencia, durante todo el tiempo.
Ese cambio de patrón tiene una consecuencia inmediata: la infraestructura de almacenamiento deja de ser una pieza secundaria y pasa a convertirse en una parte central del rendimiento del sistema. Si los datos no llegan cuando deben llegar, los aceleradores se quedan esperando. Y en un entorno donde cada GPU tiene un coste elevadísimo, ese cuello de botella se convierte en un problema técnico y económico al mismo tiempo.

Kioxia ve al disco duro fuera de juego en cargas de IA
La entrevista es especialmente clara en un punto: el disco duro mecánico no encaja en este tipo de trabajo. Stoermann plantea que la barrera está en la latencia. Los tiempos físicos de búsqueda de un HDD, con sus platos giratorios y sus cabezales, no pueden responder a la velocidad que exigen los modelos de IA actuales.
No se trata, por tanto, de una simple comparación entre una tecnología más moderna y otra más antigua. Lo que se plantea es algo más estructural. En cargas de IA, el disco duro deja de ser una alternativa más lenta pero útil y pasa a ser un freno directo para el sistema. Cuando el acceso a los datos depende de una mecánica física incapaz de seguir el ritmo, el problema ya no es solo el almacenamiento: es el rendimiento global de toda la plataforma.
Por eso, en la visión que transmite Kioxia, el HDD queda desplazado de estos escenarios concretos. Puede seguir teniendo sentido en otros usos, pero no en una infraestructura pensada para alimentar de manera constante procesos de IA. En ese terreno, la tolerancia a la latencia se reduce tanto que la memoria flash deja de ser una mejora y pasa a ser una necesidad.
La memoria NAND Flash deja de ser una opción premium
Esa es probablemente una de las conclusiones más importantes de la conversación. Stoermann explica que, para operaciones de inteligencia artificial, la memoria NAND Flash ya no puede presentarse como una solución pensada solo para acelerar ciertas tareas o para instalaciones especialmente avanzadas. En cloud y en edge, se convierte en un requisito básico.
Ese matiz es clave para entender por qué Kioxia habla de tensión en el mercado. Si la IA obliga a que los centros de datos recurran de forma simultánea a memoria flash de alto rendimiento, la presión sobre la cadena de suministro cambia de escala. Ya no es una demanda selectiva, sino una necesidad extendida que afecta a múltiples despliegues al mismo tiempo y que además no admite demasiadas concesiones técnicas.
Ante ese escenario, la respuesta no pasa simplemente por fabricar más unidades en el sentido tradicional. La estrategia que describe Kioxia apunta a aumentar la densidad y a rediseñar el formato físico para que el almacenamiento pueda crecer sin disparar espacio, consumo y complejidad en el centro de datos.
En la entrevista aparece como referencia su unidad de 245,76 TB, una cifra que sirve para ilustrar hacia dónde se está moviendo la industria. Kioxia apoya esa evolución en su BiCS FLASH de octava generación y en la tecnología CBA, separando la lógica del almacenamiento para alcanzar capacidades extremas sin perder de vista el rendimiento.

El formato E3.L entra en juego por una razón muy concreta
La conversación también subraya el papel del estándar EDSFF, y en particular del formato E3.L. Su importancia no está en una cuestión estética ni en una simple evolución del diseño, sino en algo mucho más práctico: permite alojar los 32 chips de memoria necesarios para alcanzar capacidades cercanas a esos 246 TB y, además, gestionar mejor la disipación de calor.
Ese punto térmico importa mucho porque la IA no solo exige capacidad, también lectura ininterrumpida. Y cuando una unidad trabaja bajo esa presión constante, el calor deja de ser un tema secundario. El formato más alargado ayuda precisamente a hacer viable ese equilibrio entre densidad extrema y funcionamiento sostenido.
En resumen, el mensaje que deja la entrevista de Mikel Aguirre con Axel Stoermann en CloudFest 2026 es bastante claro. La inteligencia artificial no solo está disparando la necesidad de capacidad, está cambiando la naturaleza misma del almacenamiento en el centro de datos. Y en ese nuevo escenario, la memoria NAND seguirá bajo presión durante al menos uno o dos años más.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



